#Prompt Engineering

我认为,这个时代的AI-native generation(AI原住民)应该做到以下几点: 1. 日常模模糊糊地关注各家厂商的LLM model,像旧时代关注手机和汽车评测的人们一样,看看发布会,看看benchmark,第一时间迫不及待地上手用一用; 2. 脑海中模模糊糊有信息论的观念,知道LLM不是算卦,不会指望万事万物让LLM 给一个标准答案,而是对prompt engineering有个轮廓的概念,知道充分给足什么条件和规则,才能让LLM输出一个可靠的答案; 3. 相信Agentic的方法,相信AI Agent,不迷信LLM本身能力,知道LLM一口气给一个结果一定会犯错,就像一个人用口算回答一个10位乘以10位的问题一样,知道LLM有幻觉,知道LLM如何用agentic的方法去调用外部工具,一步步解决问题; 4. 日常关注AI community,包括新产品、新模型、新的问题,看见以后愿意尝试用一用,或者试着思考一下这个东西是怎么做出来的; 5. 熟练使用SWE Agent(比如codex、openhands、claude code)和vibe coding工具(cursor、github copilot),模模糊糊知道工具和能力上限的轮廓,知道这些工具的作用是什么, 同时也知道作为人类如何驾驶这类工具时必须具备的品质和能力,不迷信“AI能代替程序员”,而相信“熟练vibe coding是人的技能之一”; 6. 对日常问题的搜索和学习,习惯用perplexity或者 快速提问,反复追问,而不仅仅是google,也等不及chatgpt慢悠悠的响应,明白AI时代最快、最顺手的搜索总结方法是什么; 7. 对于一个成体系的传统领域问题(比如EDA设计、传统建筑行业BIM、传统商业分析领域),模模糊糊知道如何搭建一个Agent或者workflow去自动化解决,或者提出一些新的方法,把传统问题转化成structured data,或者用AI Agent通过写程序和调用部分API来逐步解决,或者使用一些long term memory框架合理indexing, 并且看到某些中老年高管一提及“用AI解决问题”,就盲目把几千页文档和数据一股脑喂进vector database然后进行高成本query的行为,感到生理性不适。
「LLM, Agent, RL的关系」 在LLM的语境下,Agent是能理解问题,自主进行推理(Reasoning),并采取行动的系统。你可以把它想象成一个非常聪明的助手,当你提出复杂问题时,它不会立即给出答案,而是会在内心进行推理和规划(Planning),再给出最终决定。 如果我们回顾prompt engineering中提高LLM Reasoning能力的方法,如Self-Consistency、Tree of Thoughts 和 ReAct,本质上都体现了强化学习(RL)中常见的规划思想: Tree of Thoughts:如同下棋时,你脑海中会形成一个思考树,一步步推演未来可能的局面,从而找到最优解。这与RL中的树搜索(Tree Search)方法完全对应,体现了明显的模型化规划(Model-based Planning)特征。 ReAct(Reasoning+Acting,推理加行动):类似于你边思考边行动,不断尝试,再根据反馈调整下一步的计划。这种推理与行动的交替模式与RL中Agent持续地感知状态(Observing)、制定策略(Policy)、采取行动(Acting)并从环境中获得反馈(Feedback)非常类似。 为什么增强LLM的Reasoning通常要使用RL方法? 尽管LLM本身已经具备强大的知识和生成能力,但它们本质上是基于“下一个词预测”的机制(Next-Word Prediction),缺乏深度的Planning能力和对未来结果的有效预测。这就像一个聪明但缺乏系统训练的人,虽然懂得很多知识,但在面对复杂决策时容易陷入短视和错误。 RL方法的加入,就像给LLM提供了一种“内心世界模型”(Internal World Model),帮助模型进行更好的内部规划: RL能帮助LLM学会评估和预测不同推理路径的可能结果,从而选择更优的路径,恰如DeepSeek R1, Kimi, o1的方法。 立一个FLAG, 把这些RL方法一个个用人话讲明白。
RichChat
5个月前